Text copied to clipboard!
Título
Text copied to clipboard!Desarrollador de Big Data
Descripción
Text copied to clipboard!
Estamos buscando un Desarrollador de Big Data altamente motivado y con experiencia para unirse a nuestro equipo de tecnología. Esta posición es clave para diseñar, construir y mantener soluciones de procesamiento de datos a gran escala que permitan a la organización tomar decisiones basadas en datos. El candidato ideal debe tener un sólido conocimiento de tecnologías de Big Data, habilidades de programación y experiencia trabajando con grandes volúmenes de datos en entornos distribuidos.
Como Desarrollador de Big Data, trabajarás en colaboración con científicos de datos, ingenieros de datos y otros desarrolladores para implementar soluciones eficientes y escalables. Serás responsable de desarrollar pipelines de datos, optimizar procesos de extracción, transformación y carga (ETL), y garantizar la calidad y seguridad de los datos. Además, deberás estar al tanto de las últimas tendencias y herramientas en el ecosistema de Big Data para proponer mejoras continuas.
Tus tareas incluirán la implementación de soluciones utilizando tecnologías como Hadoop, Spark, Kafka, Hive, y bases de datos NoSQL como Cassandra o MongoDB. También deberás tener experiencia en lenguajes de programación como Java, Scala o Python, y estar familiarizado con entornos de nube como AWS, Azure o Google Cloud Platform.
Buscamos a alguien con mentalidad analítica, capacidad para resolver problemas complejos y habilidades de comunicación para trabajar en equipos multidisciplinarios. Si te apasiona trabajar con datos y deseas contribuir a proyectos innovadores que impactan directamente en la toma de decisiones empresariales, esta es tu oportunidad.
Ofrecemos un entorno de trabajo dinámico, oportunidades de desarrollo profesional, y la posibilidad de trabajar en proyectos desafiantes con tecnologías de vanguardia. Únete a nosotros y sé parte de una organización que valora la innovación, la colaboración y el crecimiento continuo.
Responsabilidades
Text copied to clipboard!- Diseñar y desarrollar pipelines de datos escalables.
- Implementar procesos ETL eficientes y seguros.
- Trabajar con tecnologías como Hadoop, Spark y Kafka.
- Colaborar con equipos de ciencia de datos e ingeniería.
- Optimizar el rendimiento de sistemas de procesamiento de datos.
- Garantizar la calidad y seguridad de los datos.
- Monitorear y mantener infraestructuras de Big Data.
- Proponer mejoras técnicas y nuevas herramientas.
- Documentar procesos y soluciones implementadas.
- Participar en revisiones de código y buenas prácticas.
Requisitos
Text copied to clipboard!- Título universitario en Ingeniería Informática, Sistemas o afines.
- Experiencia comprobada en desarrollo de soluciones Big Data.
- Conocimiento avanzado de Hadoop, Spark, Hive y Kafka.
- Dominio de lenguajes como Java, Scala o Python.
- Experiencia con bases de datos NoSQL (MongoDB, Cassandra).
- Familiaridad con servicios en la nube (AWS, Azure, GCP).
- Capacidad para trabajar en equipos multidisciplinarios.
- Habilidades analíticas y de resolución de problemas.
- Conocimiento de herramientas de orquestación como Airflow.
- Nivel intermedio o avanzado de inglés técnico.
Posibles preguntas de la entrevista
Text copied to clipboard!- ¿Cuántos años de experiencia tienes trabajando con tecnologías Big Data?
- ¿Qué lenguajes de programación dominas para el desarrollo de soluciones de datos?
- ¿Has trabajado con plataformas en la nube? ¿Cuáles?
- ¿Tienes experiencia implementando pipelines de datos en producción?
- ¿Qué herramientas de orquestación de datos has utilizado?
- ¿Cómo aseguras la calidad y seguridad de los datos en tus proyectos?
- ¿Has trabajado en equipos ágiles o con metodologías Scrum?
- ¿Qué retos técnicos has enfrentado en proyectos de Big Data?
- ¿Estás dispuesto a aprender nuevas tecnologías si el proyecto lo requiere?
- ¿Cuál es tu nivel de inglés técnico?